目的:大大缩短定量3D化学交换饱和转移(CEST)和半固体磁化转移(MT)成像所需的采集时间,并允许快速化学交换参数图重建。方法:三维CEST和MT磁共振指纹(MRF)数据集的L-精氨酸幻象,全脑,全脑和小腿肌肉的健康志愿者,癌症患者和心脏病患者是使用3T临床扫描仪在3T不同的位点使用3T临床扫描仪获得的3种不同的扫描仪模型和线圈。然后,设计和训练了一个生成的对抗网络监督框架(GAN-CEST),以学习从减少的输入数据空间到定量交换参数空间的映射,同时保留感知和定量内容。结果:GAN-CEST 3D采集时间为42-52秒,比CEST-MRF短70%。整个大脑的定量重建需要0.8秒。在地面真相和基于GAN的L-精氨酸浓度和pH值之间观察到了极好的一致性(Pearson的R> 0.97,NRMSE <1.5%)。来自脑肿瘤受试者的gan-cest图像产生的半固体量分数和汇率NRMSE为3.8 $ \ pm $ 1.3%和4.6 $ \ pm $ 1.3%,SSIM和96.3 $ \ pm $ \ pm $ 1.6%和95.0 $ \ pm $ 2.4%。半固体交换参数的NRMSE <7%和SSIM> 94%的小腿肌肉交换参数的映射。与MRF相比,在具有较大敏感性伪像的区域中,Gan-Cest表现出改善的性能和噪声降低。结论:Gan-Cest可以大大减少定量半固体MT/CEST映射的获取时间,同时即使在训练过程中无法使用的病理和扫描仪模型时,也可以保持性能。
translated by 谷歌翻译
Generalized Labeled Multi-Bernoulli (GLMB) densities arise in a host of multi-object system applications analogous to Gaussians in single-object filtering. However, computing the GLMB filtering density requires solving NP-hard problems. To alleviate this computational bottleneck, we develop a linear complexity Gibbs sampling framework for GLMB density computation. Specifically, we propose a tempered Gibbs sampler that exploits the structure of the GLMB filtering density to achieve an $\mathcal{O}(T(P+M))$ complexity, where $T$ is the number of iterations of the algorithm, $P$ and $M$ are the number hypothesized objects and measurements. This innovation enables an $\mathcal{O}(T(P+M+\log(T))+PM)$ complexity implementation of the GLMB filter. Convergence of the proposed Gibbs sampler is established and numerical studies are presented to validate the proposed GLMB filter implementation.
translated by 谷歌翻译
Barlow Twins自制学习目标既不需要负样本或不对称的学习更新,从而与计算机视觉中当前最新艺术相提并论。因此,我们提出了音频Barlow双胞胎,这是一种新颖的自我监督音频表示方法,将Barlow Twins适应音频域。我们在大规模音频数据集音频集上预先培训,并评估来自2021年HEAR 2021挑战的18个任务的学习表现质量,从而取得了超越或以其他方式与当前最新的结果相同的结果。 - 例如,歧视自我监督的学习方法来表示音频表示学习。https://github.com/jonahanton/ssl_audio上的代码。
translated by 谷歌翻译
我们提出了一系列两项研究,以了解基于语音的人机相互作用期间用户的情感状态。重点放在通信错误或失败的情况下。特别是,我们有兴趣了解与其他情感状态有关的“混乱”。研究由两种类型的任务组成:(1)与基于语音的虚拟代理的通信有关:与机器交谈并了解机器所说的话,(2)与参与者解决的无通信,解决问题的任务难题和谜语,但被要求口头解释机器的答案。我们收集了参与者情感状态的视听数据和自我报告。我们报告了两项研究的结果和分析收集的数据。根据注释者的观察对第一项研究进行了分析,并根据自我报告分析了第二项研究。
translated by 谷歌翻译
能量分解估计的单仪表逐一逐个电能量,以衡量整个房屋的电力需求。与侵入性负载监测相比,尼尔姆(非侵入性负载监控)是低成本,易于部署和灵活的。在本文中,我们提出了一种新方法,即创建的IMG-NILM,该方法利用卷积神经网络(CNN)来分解表示为图像的电力数据。事实证明,CNN具有图像有效,因此,将数据作为时间序列而不是传统的电力表示,而是将其转换为热图,而较高的电读数则被描绘成“更热”的颜色。然后在CNN中使用图像表示来检测来自聚合数据的设备的签名。 IMG-NILM是灵活的,在分解各种类型的设备方面表现出一致的性能;包括单个和多个状态。它在单个房屋内的英国戴尔数据集中达到了高达93%的测试准确性,那里有大量设备。在从不同房屋中收集电力数据的更具挑战性的环境中,IMG-NILM的平均准确度也非常好,为85%。
translated by 谷歌翻译
给定一个较小的培训数据集和学习算法,要达到目标验证或测试性能需要多少数据?这个问题至关重要,在诸如自动驾驶或医学成像之类的应用中,收集数据昂贵且耗时。高估或低估数据需求会带来大量费用,而预算可以避免。关于神经缩放定律的先前工作表明,幂律函数可以符合验证性能曲线并将其推断为较大的数据集大小。我们发现,这并不能立即转化为估计所需数据集大小以满足目标性能的更困难的下游任务。在这项工作中,我们考虑了一系列的计算机视觉任务,并系统地研究了一个概括功能功能的功能家族,以便更好地估算数据需求。最后,我们表明,结合调整的校正因子并在多个回合中收集会显着提高数据估计器的性能。使用我们的准则,从业人员可以准确估算机器学习系统的数据要求,以节省开发时间和数据采集成本。
translated by 谷歌翻译
近年来,深神经网络(DNN)应用的流行和成功促使对DNN压缩的研究,例如修剪和量化。这些技术加速了模型推断,减少功耗,并降低运行DNN所需的硬件的大小和复杂性,而准确性几乎没有损失。但是,由于DNN容易受到对抗输入的影响,因此重要的是要考虑压缩和对抗性鲁棒性之间的关系。在这项工作中,我们研究了几种不规则修剪方案和8位量化产生的模型的对抗性鲁棒性。此外,尽管常规修剪消除了DNN中最不重要的参数,但我们研究了一种非常规修剪方法的效果:根据对抗输入的梯度去除最重要的模型参数。我们称这种方法称贪婪的对抗修剪(GAP),我们发现这种修剪方法会导致模型可抵抗从其未压缩的对应物转移攻击的模型。
translated by 谷歌翻译
为什么有些事情在想法的市场中取得成功?虽然一些人认为内容推动成功,但其他人建议展示风格,或者思想的方式,也起到了重要作用。为了提供严谨的风格的重要性,我们将其审视内容应该是至关重要的:学术研究。虽然科学家们经常看到作为一种无私的方式,但多种方法调查表明写作风格的影响。从内容中分离风格可能是易于使用某些语言的论文也可能写出某些主题。因此,我们专注于链接到风格的独特单词(即,诸如“的功能词,”,“和”开启“),这些单词完全没有内容。来自一系列学科的自然语言处理近30,000篇文章发现功能词解释了13-27%的语言对引用的影响。辅助分析探讨了特定类别的功能词语,以表达风格的重要事项,突出了写作简单,个人声音和时间视角的作用。实验进一步强调了风格的因果影响。结果表明如何提高通信的影响并突出自然语言处理的价值,以了解思想成功。
translated by 谷歌翻译
像歌曲这样的文化项目对于创造和加强陈规定型,偏见和歧视具有重要影响。但这些物品的实际性质通常不太透明。例如,宣传歌曲。歌词是否偏向妇女?如何随着时间的推移而改变了任何此类偏见?自然语言处理超过50年的四分之一的歌曲量化了Misogyny。女性不太可能与所需的特征相关联(即,能力),而这种偏差减少,它仍然存在。辅助分析进一步表明,歌曲歌词可能有助于推动妇女的社会刻板印象的转变,而男性艺术家的抒情转变(因为女性艺术家较少偏见开始)。总的来说,这些结果阐明了文化演进,偏见和歧视的微妙度量,以及自然语言加工和机器学习如何能够深入了解刻板印象和文化变革。
translated by 谷歌翻译
陈,勇敢和勇敢(Neurips 2020)最近推出了对数据价值的不分布假设而没有分布假设的统计估计的研究。在此框架中,目标是设计最小化最坏情况预期误差的估计值。这里期望是来自某些群体的已知的随机数据收集过程,并且假设对应于群体的每个元素的数据值是最坏的。陈,勇敢和勇敢的表明,当数据值为$ \ ell _ {\ infty} $ - 归一化时,有一个多项式时间算法来计算估计器的平均值,与\ frac的最坏情况预期错误{\ pi} {2} {2}在半线性估算器的自然类中最佳。然而,它们的算法基于在约束的正半纤维矩阵上优化一些复杂的凹面目标函数,因此不具有显式运行时保证在输入中的多项式时间之外。在本文中,我们根据在线凸优化设计了用于近似最佳半线性估计的明显有效算法。在数据值为$ \ ell _ {\ infty} $ - 归一化的情况下,我们的算法通过迭代解决标准SDP的序列来实现$ \ FRAC {\ PI} {2} $ - 近似。当数据值为$ \ ell_2 $ -normalized时,我们的算法迭代地计算矩阵序列的顶部特征向量,并且不会丢失任何乘法近似因子。通过说明简单的组合条件,我们补充了这些积极的结果,如果通过数据收集过程满意,则意味着任何(不一定是半线性)估计的平均值具有恒定最坏情况的预期误差。
translated by 谷歌翻译